公众对自动驾驶汽车的不信任正在增长。研究强调需要解释这些车辆的行为以促进对自主系统的信任。口译员可以通过改善转移和降低感知风险来增强信任。然而,当前的表演通常缺乏以人为中心的方法来整合多模式解释。本文介绍了一种新颖的以人为本的多式联运解释器(HMI)系统,该系统利用人类的偏好提供视觉,文字和听觉反馈。系统将视觉互相视觉与鸟类视图(BEV),地图和文本显示结合在一起,并使用微调的大型语言模型(LLM)结合了语音交互。我们的用户研究涉及各种各样的细节,表明HMI系统大大提高了乘客对AVS的信任,使平均信任度增加了8%以上,对普通环境的信任提高了30%。这些结果强调了HMI系统通过提供清晰,实时和上下文敏感的车辆行动的解释来提高自动驾驶汽车的接受和可靠性的潜力。
![arxiv:2501.05322v2 [CS.HC] 2025年1月12日PDF文件第1页](/bimg/e/e1f843350368a4a3b59e30bc710a180f36a9d3e7.webp)
![arxiv:2501.05322v2 [CS.HC] 2025年1月12日PDF文件第2页](/bimg/8/820c2653548e40df17e531f7f9e6a519843c4648.webp)
![arxiv:2501.05322v2 [CS.HC] 2025年1月12日PDF文件第3页](/bimg/1/17e7e28ee290e5e20e8dc41f3dab489a471dd7ad.webp)
![arxiv:2501.05322v2 [CS.HC] 2025年1月12日PDF文件第4页](/bimg/1/1b2fd29c8ff33dbc004eda7d478391776da028f7.webp)
![arxiv:2501.05322v2 [CS.HC] 2025年1月12日PDF文件第5页](/bimg/0/071c4a6f0fc462443ce79d503647df3dc5553ae5.webp)
